Главная arrow книги arrow Копия Глава 26. Философские основания arrow Этические и моральные последствия разработки искусственного интеллекта
Этические и моральные последствия разработки искусственного интеллекта

•    Люди могут потерять некоторые из своих прав на личную жизнь. Вейценбаум также указал, что развитие технологии распознавания речи может привести к широкому распространению средств прослушивания телефонных разговоров и поэтому к потере гражданских свобод. Он не предвидел, что когда-то в мире террористические угрозы станут настолько реальными, что изменят отношение людей к тому, с каким уровнем надзора они будут готовы согласиться, однако правильно понял, что искусственный интеллект обладает потенциалом к созданию средств надзора массового применения. Предсказание Вейценбаума вскоре может осуществиться: правительство США рассматривает вопрос о внедрении системы Echelon, которая "состоит из сети пунктов прослушивания, антенных полей и радарных станций; система опирается на поддержку компьютеров, в которых используется языковой перевод, распознавание речи и поиск по ключевым словам для автоматического просеивания трафика, идущего по телефону, электронной почте, факсу и телексу". Многие согласны с тем, что компьютеризация приводит к ущемлению прав на личную жизнь, — один из старших руководителей компании Sun Microsystems Скотт Макнили даже заявил: "У вас все равно нет никакой личной жизни. Забудьте о ней". Другие с этим не согласны; например, судья Луис Брандейс писал еще в 1890 году: "Право на личную жизнь является самым всеобъемлющим из всех прав... ведь это — право оставаться самим собой".

•    Использование систем искусственного интеллекта может привести к тому, что люди станут более безответственными. В той атмосфере постоянной готовности к судебным разбирательствам, которая доминирует в Соединенных Штатах, большую важность приобретают вопросы правовой ответственности. Если терапевт принял на веру суждение медицинской экспертной системы в отношении диагноза, то кто будет нести ответственность, если диагноз окажется неправильным? К счастью, теперь общепризнано, что нельзя рассматривать как пренебрежение служебными обязанностями выполнение терапевтом медицинских процедур, которые имеют высокую ожидаемую полезность, даже если фактические результаты оказались катастрофическими для пациента (отчасти такая смена взглядов обусловлена ростом влияния методов теории решений в медицине). Поэтому приведенный выше вопрос должен рассматриваться в такой формулировке: "Кто должен нести ответственность, если диагноз оказался неоправданным?" До сих пор суды исходили из того, что медицинские экспертные системы играют такую же роль, как медицинские учебники и справочники; терапевты обязаны понять ход рассуждений, лежащий в основе любого решения системы, и использовать свое собственное суждение для принятия решения о том, нужно ли следовать рекомендациям системы. Поэтому при проектировании медицинских экспертных систем в виде интеллектуальных агентов действия этих систем следует рассматривать не как непосредственно воздействующие на пациента, а как влияющие на поведение терапевта. А если экспертные системы когда-то будут надежно вырабатывать более точные диагнозы по сравнению с людьми, врачи могут стать юридически ответственными, если они не используют рекомендации экспертной системы. Такая предпосылка рассматривается в [528].